home *** CD-ROM | disk | FTP | other *** search
/ CD Schooolhouse Version 10.0 / CD Schooolhouse Version 10.0.ISO / pc / dos / math / status12 / statutor.ovr (.txt) < prev   
Encoding:
Turbo Pascal Overlay  |  1994-12-10  |  107.5 KB  |  1,102 lines

  1. TPOVU
  2. Press 
  3. Space-
  4.  Using the keyboard:" This interactive program requires# you to use the keyboard at certain
  5.  times. % For example, a message will tell you% when you can press a key in order to! continue to the next step of the# demonstration.  When you see this 
  6.  message, you can press the     space bar
  7.  or the     enter key
  8.  to continue.  You need not hold the key down.& If you do not touch the keyboard, the& program will proceed automatically at
  9.  about 
  10.  seconds per step." The message at the bottom of this$ screen indicates that you can press  the space bar or enter key now.& Sometimes, there will be special keys& that you can press in order to change" the way that information is being' displayed or to change the flow of the
  11.  the demonstration.% These special keys will be shown as & the choices on a menu or may be shown" on the bottom line of the screen.' Pressing "D" will change the number of& decimals in the display at the bottom& of the screen right now, for example.
  12.  Tapping the key will suffice." You need not press the enter key.
  13. The program is counting
  14. how many times you have
  15. pressed the "D" key.
  16. Press 
  17. Space-
  18. Decimals     Count = 
  19. & Each of the demonstrations includes a% sampling experiment during which the! "P", "Q", and "Space" keys have 
  20.  special functions.& You can cause the experiment to pause' after each sample or to sample without! pausing by pressing the "P" key,  which acts as an on-off switch." Press the "P" key a few times now% and watch the effect on the sampling
  21.  below.' Pressing the space bar causes the next% sample to be drawn.  Try it while in
  22.  Pause mode.  Pressing the "Q" key stops the & sampling and advances the program to 
  23.  the next topic. 
  24. Pause
  25. Quit 
  26. Pause mode is 
  27. in effect.    
  28. Sample Number = 
  29.  Sample Number = 
  30. % At many times, you can return to the$ previous topic by pressing the PgUp
  31.  key.& Try it now to go back to the previous
  32.  screen.% The PgUp, or PageUp, key is a cursor! key.  The cursor keys are on the$ number keys on many keyboards.  You% may need to press the NumLock key to  activate the cursor keys if the# numbers and cursor keys are on the
  33.  same keys.( That was the 9 instead of the PgUp key.! Press the NumLock and try again.
  34.  PgUp-
  35. % When you are asked to enter a number$ you can type a number and press the" enter key.  If you don't know how  big of a number to choose, just$ press the enter key and the program" will choose an appropriate value.  The program will also choose an! appropriate value if you enter a& number that is outside the range that
  36.  it can handle.$ Special keys, such as the space bar! and the PgUp key, are not active! when the computer is waiting for
  37.  you to enter a number.
  38.  Try entering a number now:
  39.  The program chose U
  40.  RSP1
  41.  Hardware requirements:     StaTutor
  42.  runs on an IBMPC with " DOS 2.0 or higher and requires a 
  43.  graphics adapter board.% CGA, EGA, VGA, and Hercules adapters" are currently supported.  ATT and% IBM 3270 may also work (not tested).$ With a CGA adapter, the display can
  44.  be changed between 80 and 40
  45.  text column width.
  46.  Forty column resolution allows
  47.  use with a projection system
  48.  in a classroom environment.
  49.  The program may also need as
  50.  much as 320K of free memory.U
  51.      StaTutor
  52.  helps to demonstrate' several basic statistical concepts but% does not teach computational skills.
  53.  is designed to complement# a course in elementary statistics.
  54.  has been developed for$ use by an instructor in a classroom$ environment or by students enrolled
  55.  in a statistics course." The student should consult texts,
  56.  teachers, or other resources  to learn details of the results
  57.  shown by these demonstrations
  58.  as well as to learn how and
  59.  why they work.U
  60.    Registration and Distribution:>  This program may be freely distributed, but may not be sold.D  I welcome constructive comments and suggestions about the program.
  61.          Robert A. Wolfe
  62.    Department of Biostatistics
  63.       University of Michigan
  64.         Ann Arbor, MI 48109U
  65.  Statistical Details:  All of these demonstrations are  based on classical statistical # methods and they use a frequentist
  66.  sampling orientation.& Generation of Univariate Populations:% Univariate populations are generated
  67.  by an inverse probability! transformation on equally spaced$ probabilities on the unit interval.
  68.  Univariate Sampling Methods:% Sampling experiments are carried out$ by sampling from finite populations
  69.  with replacement.
  70.  Generation of Bivariate Data:
  71.  Bivariate data are generated# conditionally on the X-values with" pseudo-random Gaussian errors for
  72.  the Y-variable (polar method).
  73.  Bivariate Sampling Methods:  by generating new pseudo-random
  74.  observations for each sample." In order to increase the speed of$ display, the "population" used with& prediction bands does not change from
  75.  sample to sample.$ Confidence Intervals and Inference:$ Univariate confidence intervals are$ based on the central limit theorem.
  76.  These confidence intervals use
  77.  percentiles from the Gaussian
  78.  distribution.! Regression inference is based on" the t-distribution with 2 decimal
  79.  accuracy." Because of the discrete nature of  the binomial distribution, only! certain sample sizes are allowed! with the binomial population so   that the histogram of the means
  80.  will be more interpretable.U
  81.  Acknowledgements:
  82.  The development of StaTutor# was supported, in part, by a grant
  83.  from The Center for Research
  84.  in Learning and Teaching
  85.  of the University of Michigan.
  86.  StaTutor is written in 
  87.  TURBO Pascal.U
  88. Return to Main Menu"Sound, Screen resolution and color
  89. Sound, Screen colors
  90. Statistical Details
  91. Teaching Objectives and Use
  92. Hardware Requirements
  93. Acknowledgements
  94. Keyboard Use
  95. Copyright and Distribution
  96. Further Information about the
  97. Statistical DemonstrationsU
  98. $)$3$=$G$Q$[$e$o$y$
  99. %%%/%9%C%M%W%a%k%u%
  100. &!&+&5&?&I&S&]&i&N'S']'g'q'{'
  101. )#)9)b)x)
  102. *.*<*A*O*\*f*p*z*
  103. PC3270
  104. Monochrome Hercules
  105. ATT400
  106. 64K EGA
  107. Monochrome EGA
  108.  by U
  109.  Graphics Error:* This program requires a graphics adapter./ CGA, EGA, VGA, and MonoHercules are supported.U
  110.  To change the colors press 
  111.  one of the following keys:( "M" for Monochrome (shown on this line)
  112.  "C" for the default colors
  113.  "B" to change the BackGround
  114.  "T" to change the Text color# "H" to change the Highlight color.! Press "R" for 40 character lines(           with 4 color graphics screens(           and multi-color text screens.! Press "R" for 80 character lines
  115.            with 2 colors.
  116.  "S" to turn sound
  117.  off.
  118.  "D" to make
  119.  dimensional histograms.
  120.  Press the 
  121. Space
  122.  bar, the long key# in the middle at the bottom of the
  123.  keyboard, or the 
  124. enter     key, to 
  125.  return to the prior menu.
  126.  Press 
  127.  Space
  128. -Done with choices
  129.  M,C,B,T, or H
  130. -Color choices 
  131. -Change Resolution
  132. Testing graphics resolution
  133. and text font size.
  134. Graphics Driver is 
  135. with resolution 
  136. Press any key to continue
  137.     #    2    :    D    P    \    f    p    z    
  138. Press
  139.  Space
  140. -Done
  141. -Return
  142. -Next
  143. -Help
  144.  PgUp
  145. -Back
  146. -Pause
  147. -Quit
  148. -Auto demoU
  149. Sampling from a Population
  150. !Confidence Intervals for the MeanU
  151. confidence interval
  152.  is a statistical' tool that is used to make an inference' about the value of the population mean$ based on sample data.  Although the$ sample data does not tell the exact' value of the population mean, the data# can be used to compute an interval$ that is likely to contain the value
  153.  of the population mean.' A confidence interval for a parameter,& such as the population mean, consists$ of two numbers: the upper and lower
  154.  confidence
  155.  limits 
  156. for the parameter.% The probability that the two numbers% capture the population value between
  157.  them is called the confidence
  158.  coefficient
  159. .# This program will compute and show& confidence intervals for the mean for' a series of samples from a population.U
  160. & First, some of the technical details:
  161.  Because of the 
  162. Central Limit Theorem
  163. ,$ the limits equal to the sample mean
  164.  plus or minus 
  165.  times sd /
  166. n  can be expected to capture the 
  167.  population mean for about      % of the$ random samples of size n that could# be drawn from a population, if the
  168.  sample size, n, is large.
  169.  + or - 
  170.  * sd /
  171.  is an approximate 
  172. % confidence" interval for the population mean.' (sd is the sample standard deviation.)" Review the method for computing a" confidence interval in a textbook  if you don't know how to do it.U
  173.  This program will compute an
  174.  approximate 
  175. % confidence interval% for the population mean based on the& data from each of a series of samples
  176.  from the 
  177.  population.% How many observations would you like
  178.  to have in each sample?  
  179.  Please enter an integer: ' These approximate confidence intervals$ are based on the approximate Normal& (Gaussian) distribution of the sample% mean.  An approximation based on the$ t-distribution may be more accurate! since the standard deviation is 
  180.  estimated from sample data.U
  181.  + or - 
  182.  * sd /
  183.  Approximate 
  184. % confidence interval.U
  185. " The confidence coefficient is the% fraction of potential random samples" from the population for which the! confidence interval will enclose
  186.  the parameter value.
  187.  You can choose the approximate
  188.  confidence coefficient now.
  189.  observations 
  190. per sample.    
  191. Approximate 
  192. Confidence Interval.
  193.                     
  194. A sample is shown in
  195. the top histogram.
  196. The sample mean and
  197. confidence interval
  198. are marked by
  199. vertical and
  200. horizontal lines.
  201. The confidence
  202. interval changes
  203. from sample to
  204. sample but the
  205. parameter does not.
  206. The standard
  207. deviation for this
  208. sample is 0.
  209. interval is not
  210. very interpretable.
  211.  population.
  212. (In practice, the value of the population%mean is unknown and must be estimated
  213. from sample data.%In this demonstration, the population&distribution is known.  A histogram is$shown below, along with the value of'the population mean.  The vertical line%at the top of the histogram marks the
  214. value of the mean.
  215. Values near 0 are
  216. most common.
  217. Any value is        
  218. possible but only
  219. the range between
  220. + and - 7 is shown.
  221. There are two
  222. groups in this
  223. population
  224. labeled 0 and 1.
  225. The mean is the
  226. fraction in 
  227. group 1.
  228. The values range
  229. between 0 and 9.
  230. All values occur
  231. equally frequently.
  232. Any positive value
  233. is possible.
  234. Only the range 
  235. 0 to 7 is shown.
  236. Small values are
  237. more common.
  238. + and - 4 is shown.U
  239. PopulationU
  240. A random sample of
  241.  observations    is shown.
  242. The positions of  
  243. the population and
  244. sample means are  
  245. shown and a line  
  246. extends between the
  247. lower and upper 
  248. confidence limits.U
  249. 'In practice, only one sample is        'available and we do not know the value 'of the population mean or whether or   'not it was captured by the confidence  'interval.                              
  250. 'In this demonstration, samples will be 'drawn from the population repeatedly   'in order to show how the confidence    'interval varies from sample to sample. U
  251. Sample &The confidence interval is centered at&the sample mean.  The line marking the
  252. interval does 
  253. capture the  population mean for this sample.
  254. "The confidence limits are designed
  255. to capture the population mean
  256. between them for about 
  257. % of the
  258. samples of size 
  259.  that could be
  260. drawn from the population.U
  261. # You can change any of the 3 things
  262.  listed below and continue the% sampling experiment or you can quit.
  263. Sample Size (
  264. Confidence Coefficient (
  265. Population (
  266.  Enter a new sample size:U
  267. Population
  268. Sample 
  269. Parameter                  captured.    missed.  
  270. Captured by 
  271. of samples so far.U
  272. 1. The confidence interval is"   computed using sample data.  An&   approximate confidence interval for'   the mean can be computed without any!   knowledge about the population"   distribution if the sample size
  273.    is large.#2. The confidence interval does not&   always capture the parameter value.#   In practice, we do not know if a!   particular confidence interval%   captures the population parameter.'3. The confidence interval changes from
  274.    sample to sample.$4. The confidence coefficient is the'   fraction of all the possible samples    that would yield a confidence
  275.    interval that captured the
  276.    parameter.U
  277. &5. The confidence interval is wider if"    a. The sample size is smaller.$    b. The confidence coefficient is
  278.        higher.!    c. The sample values are more
  279.        variable. 6. An approximate 1-p confidence&   confidence interval for the mean is
  280.    often computed as:
  281.  + or - Z(1-p/2) * sd /
  282. n&   where Z(1-p/2) is a percentile from
  283.    the normal distribution.'7. A percentile from the t-distribution
  284.    is often used instead of Z.U
  285.  Available Control Keys:
  286. utomatic Demonstration.
  287. Return to the 
  288. B    eginning.
  289. uit Sampling.
  290. uit Program.
  291. elp Screen.
  292. Select 
  293. ew Population
  294.    and Sample Size.
  295. ause/Continuous Sampling.
  296.  Pgup-
  297. Return to Previous Topic.
  298.  Space-
  299. Continue to Next 
  300. Sample.
  301. Topic.# Different keys may be available at
  302.  other points in the program.
  303.  The control keys are 
  304.  available when the program is" waiting for you to enter a number! or make a selection from a menu.U
  305. I<    u    
  306. QuitU
  307.     &    ?    D    N    S    ]    g    q    {    
  308. !"!j"
  309. #4#<#P#x#
  310. $_%l%r%{%
  311. & &*&4&>&H&X&m&r&|&
  312. ()(8(T(d(o(y(
  313. (")d)n)
  314. )S*l*
  315. -+-3-8-L-
  316. /*///5/?/I/S/\/i/o/
  317. 0"0+0F0T0a0f0l0v0
  318. 1,141;1
  319. 4!4+454?4I4S4]4g4q4{4
  320. 7%7/797C7M7W7a7v9
  321. : :4:@:J:T:^:h:r:
  322. ;&;0;D;P;Z;d;n;
  323. ;8<I<T<e<l<q<
  324. ?'?E?a?r?z?
  325. @ @)@_@dA
  326. C-C2C:C@CECMCSCaCfCnCtC
  327. Press
  328.  Space
  329. -Done
  330. -Return
  331. -Next
  332. -Help
  333.  PgUp
  334. -Back
  335. -Pause
  336. -Quit
  337. -Scale
  338.  N    -New demo
  339. -Auto demoU
  340. Sampling from a Population
  341. Variability of the Sample Mean#Central Limit Theorem ApproximationU
  342. $ The tools of statistics can help us
  343.  to draw conclusions about the
  344.  characteristics of all of the
  345.  subjects in a 
  346. population     based on$ the characteristics of the subjects
  347.  in a 
  348. sample
  349.  from the population.
  350.  Although the characteristic  being studied could be observed# for all members of the population,$ it need only be observed for a part% of the population called the sample.! A numerical summary based on the
  351.  whole 
  352.  is often called a
  353.  parameter
  354. .  A numerical summary
  355.  based on the      is often
  356.  called a     statistic
  357.  The value of a 
  358.  used to guess, or 
  359. estimate
  360. , the
  361.  value of a     parameterU
  362. The average, or mean, is a numerical summary of the typical
  363. value of a characteristic.
  364. $The sample average is the sum of the
  365. values observed divided by the
  366. number of observations in the
  367. sample.
  368. Let N denote the number of
  369. observations in the sample.
  370. Let X
  371.  denote the value for the
  372. i'th observation.#The sample average is computed as: 
  373.      N
  374.      i=1$ This number is often referred to as( "X Bar" because of the line over the X.U
  375. $ Data from the sample are often used& to make guesses about the population.! For a random sample with a large% number of observations, it is likely" that the histograms of the sample$ and population data are similar and" that numerical summaries based on
  376.  sample data are close to the
  377.  corresponding summaries of the
  378.  population values.$ Thus, it is plausible to guess that  the value of the sample average& is close to the average of all of the# values in the population, if it is  based on a large random sample." The process of making conclusions# about a population based on sample
  379.  data is called statistical     inference
  380. ' This program will demonstrate that the  value of the sample mean varies% depending upon which sample is drawn
  381.  from the population.% How many observations would you like
  382.  to have in each sample?  
  383.  Please enter an integer: 
  384. Binomial& The sample size has been set equal to
  385.  in order to make the displays
  386.  more interpretable.U
  387. Sampling from the 
  388.  population.%In practice, details about the values'in the population are often unknown and#must be estimated from sample data.%In this demonstration, the population&distribution is known.  A histogram is$shown below, along with the value of&the population mean.  The arrow at the'top of the histogram marks the value of
  389. the population mean.
  390. Any value is        
  391.  population:
  392. Values near 0 are
  393. most common.
  394. possible but only
  395. the range between
  396. + and - 7 is shown.
  397. There are two groups
  398. in this population
  399. labeled 0 and 1.
  400. The mean is the
  401. fraction in group 1.
  402. The values range
  403. between 0 and 9.
  404. All values occur
  405. equally frequently.
  406. Any positive value
  407. is possible.
  408. Only the range 
  409. 0 to 7 is shown.
  410. Small values are
  411. more common.
  412. + and - 4 is shown.U
  413. PopulationU
  414.  Review of Concepts  1. The individual values in the"    population have a distribution
  415.     which is unknown.' 2. The observations in a random sample"    can be used to make inferences#    (guesses) about the population.% 3. The sample histogram approximates%    the population distribution.     % 4. The sample mean estimates the    
  416.     population mean.U
  417. % 5. The value of the sample mean can 
  418.     vary from sample to sample.% 6. There are a very large number of %    potential random samples that    
  419.     could be drawn from most 
  420.     populations.% 7. The distribution of the potential#    values of the sample means from!    all the potential samples of         size 
  421.  is approximately
  422.  may not be close to
  423.     Gaussian (Normal) since the"    number of observations in each
  424.     sample is 
  425. large
  426. small
  427. ! samples have been drawn, so far.
  428. There were 
  429.  observations per sample.'The distribution of the sample averages&of all random samples is nearly Normal'if the number of observations is large.
  430. Go back and look at
  431. just a few more samples
  432. so that this makes sense.&The Normal approximation can be better
  433. seen after you draw more than 
  434. samples.  
  435. The density function
  436. of the Normal
  437. distribution is shown
  438. with the histogram
  439. of the sample means
  440. from      samples.!Tables of the Normal distribution#can be used to approximate how big !the difference between the sample
  441. mean and the population mean
  442. is likely to be, even
  443. when we don't know
  444. the value of the 
  445. population mean.
  446. Press
  447. -change scale.
  448. -more samples.
  449.  Samples
  450. MeansU
  451. A histogram for a
  452. random sample of 
  453. observations is shown
  454. to the right.
  455. The value of the
  456. sample mean is shown
  457. and its position is
  458. marked by an arrow.$In practice, only one sample is used#for inference about a population.  %Based on this sample, one might infer
  459. that about 
  460. % of the population
  461. is in group 1.!that the population mean is close
  462. .&In this demonstration, samples will be%drawn from the population repeatedly 
  463. in order to show how much the %estimates vary from sample to sample.U
  464. Sample U
  465. There have been 
  466.  different samples of
  467. size 
  468.  so far.
  469. The sample means have been
  470. The first 
  471.  sample means were
  472. A histogram of these 
  473.  sample
  474. means is shown.!The x-scale of the histogram will"change when you press the "s" key.
  475.  Samples
  476.  MeansU
  477. Population.
  478. A random sample of   
  479.  observations is
  480. shown at the right.  
  481. Random samples of
  482.  observations
  483. are being drawn.
  484. The histogram of all
  485. the means of the 
  486. samples seen so far 
  487.  below it.
  488.  shown.
  489. is getting closer to
  490. the distribution of
  491. the means from all 
  492. possible samples.U
  493. Population
  494.  Samples
  495.  Means
  496. Speeding up!
  497. Sample 
  498.  Mean=
  499. Record the mean
  500.                U
  501.  Available Control Keys:
  502. utomatic Demonstration.
  503. Return to the 
  504. B    eginning.
  505. uit Sampling.
  506. uit Program.
  507. elp Screen.
  508. ew Population and Sample Size.
  509. ause/Continuous Sampling.
  510. cale change.
  511.  Pgup-
  512. Return to Previous Topic.
  513.  Space-
  514. Continue to Next 
  515. Sample.
  516. Topic.# Different keys may be available at
  517.  other points in the program.
  518.  The control keys can 
  519.  be used when# the program is waiting for you to & enter a number or select from a menu.U
  520. P<    u    
  521. QuitU
  522.     &    0    :    D    N    X    b    l    v    
  523.  % / 9 C M W '"4">"H"R"\"f"p"z"
  524. #-#9#C#T#n#|#
  525. $)$I$p$x$
  526. %1%9%P%U%o%
  527. * *%*/*4*>*H*R*\*f*
  528. +-+>+C+M+R+b+l+v+
  529. ,^-o-y-
  530. -M.e.
  531. ///I/Y1f1r1w1
  532. 2(222<2F2P2Z2d2z2
  533. 3&303:3D3]3
  534. 4"4'4,4{5
  535. 6-6?6Q6V6`6e6
  536. 7'777H7M7W7\7f7p7
  537. 8@8Z8t8
  538. :%:*:/:8:E:S:]:u:
  539. :&;0;:;D;\;h;z;
  540. @=ARAWA\AoA
  541. AlB~B
  542. C!CeCqCyC
  543. C3DADRD\DeD
  544. G%G9GCGMGWGaGkGuG
  545. H(H2HOHlHvH
  546. I"I,I6I@IJITI
  547. M"M)M2M\N
  548. O8PAP
  549. Press@
  550.  Space
  551. -Next
  552. -Help
  553.  PgUp
  554. -Back
  555. -Pause
  556. -Quit
  557.  L-No
  558.  L-for
  559.  lines
  560. -AutoU
  561. Interpreting the
  562. Correlation Coefficient,
  563. the R-squared Statistic,    and other
  564. Measures of Linear Association
  565. from Simple Linear Regression.U
  566. " This program demonstrates several$ ways to measure linear association.
  567.  correlation coefficient
  568.  denoted here as 
  569. , and
  570.  R-squared" will be computed for various X-Y 
  571.  scatter plots.! You can learn that the numerical
  572.  values of R and R-squared are" related to the visual information
  573.  in the X-Y scatterplot.
  574.  can range between
  575.  -1 and +1
  576.  while
  577.  can range between 
  578. 0 and 1
  579.  is interpreted as the! fraction of the variability of Y  that is explained by the linear
  580.  relationship with X.U
  581.  The 
  582. standard deviation
  583.  of Y about the' regression line summarizes the typical& vertical distance between an observed$ value of Y and the regression line.& It measures how close the data points
  584.  are to the regression line.
  585.  It is denoted here by 
  586. sd(Y|X)
  587. .' The typical vertical distance is often$ computed as the square root of the & "average" of the squared distances in$ the observed sample.  The "average"& is usually computed by dividing a sum% by N-2 to yield an unbiased estimate! of a parameter and to take into   account the degrees of freedom.% In this demonstration, the "average"  squared distance is computed by# dividing by N.  This approximation$ will help to show how R-squared is 
  588.  related to sd(Y|X) and sd(Y).U
  589. ' 1. R ranges from -1 to +1.  R is close"    to 0 if there is little linear     association between Y and X.$ 2. R has the same algebraic sign as%    the slope of the regression line.% 3. R-squared ranges between 0 and 1.$    R-squared is the fraction of the&    variability of Y that is explained$    by a linear relationship with X.U
  590. ! 4. The sample regression line is$    typically closer to the observed"    values of Y than is the sample
  591.     average of Y.# 5. The typical distance between an
  592.     observed value of Y and the!    regression line estimates the$    standard deviation of Y given X."    It is denoted here by sd(Y|X).U
  593.  Choose the
  594.  sample size
  595.  now.
  596.  Enter the sample size >U
  597.  Random samples of size 
  598.  will# be drawn from various populations.& The least squares regression line and" the data will be plotted for each
  599.  sample and the value of the  correlation coefficient will be
  600.  computed.
  601. , sd(X), and sd(Y)% denote the sample means and standard% deviations of X and Y, respectively,$ and the X-Y data values are denoted
  602.  by (X
  603. ) for i=1,...,n,% then the correlation coefficient can
  604.  be computed as
  605.            
  606.   R = -----------------------
  607.       sd(X) * sd(Y) * (n - 1)U
  608. V&Y^_
  609.                   
  610. The typical
  611. difference
  612. between Y and
  613. the regression
  614. line is shown
  615. by the vertical
  616. bar nearest
  617. the scatterplot:
  618. sd[Y|X]=
  619. The correlation
  620. coefficient is
  621. between -1 and 1.
  622. R is positive
  623. R is negative
  624. since the fitted
  625. line is
  626. increasing.
  627. decreasing.    R-squared
  628. measures the
  629. strength of
  630. the linear
  631. relationship.
  632. R-squared is
  633. between 0 and 1.
  634. The lines next
  635. to the plot show
  636. the standard
  637. deviation of Y
  638. about YBar and    about the
  639. regression line.
  640. The standard
  641. deviations are
  642. computed from
  643. an average as
  644. shown by the
  645. moving lines.
  646. Press the L key
  647. to get rid of
  648. the moving lines.
  649. to cause the
  650. moving lines
  651. to be shown.
  652. Caution:
  653. The measures    of linear
  654. association
  655. shown here
  656. are not
  657. adequate for
  658. summarizing
  659. non-linear
  660. relationships.
  661. Technical detail:
  662. deviations shown
  663. here are not
  664. adjusted for
  665. degrees of
  666. freedom.
  667. Sums of squares
  668. are divided by
  669. the sample size.
  670. The ratio of sd's
  671. reported is the
  672. square root of
  673. 1 - R squared.
  674. If an individual
  675. value of Y were
  676. predicted using
  677. line, the typical
  678. error would
  679. only be about 
  680. as big as it
  681. would be if Y
  682. were predicted
  683. using YBar
  684. for this sample.
  685. Population 
  686. Sample Size 
  687. R-Squared=
  688. Slope
  689. sd[Y|X]
  690. sd[Y]
  691. YBar is shown by
  692. the vertical bar
  693. to the left:
  694. sd[Y]=
  695. Ratio of sd's
  696.    Control Keys:
  697.    A-
  698. Automatic demonstration.
  699.    B-
  700. Return to the 
  701. B    eginning.
  702.    Q-
  703. uit Program.
  704.    H-
  705. elp Screen.
  706.    N-
  707. Select 
  708. ew Sample Size.
  709.    P-
  710. ause/Continue Demonstration.
  711.    L-
  712.  Show/Do not show moving 
  713. ines.
  714.    Pgup-
  715. Return to Previous Topic.       Space-
  716. Continue to Next 
  717. Sample.
  718. Topic.U
  719. X    b    l    v    
  720.  " G L _ x 
  721. !&!+!0!9!
  722. #"#M#^#f#
  723. $$$4$C$O$[$c$h$~$
  724. %!%+%5%O%[%u%
  725. &"&,&6&K&U&_&i&s&}&
  726. '!'+'5'?'I'^'h'r'|'
  727. ('(1(;(E(U(v({(
  728. )*);)@)I)S)
  729. +7+<+A+S+]+w+
  730. ,*,4,
  731. -(-G-[-c-h-z-
  732. .0.5.^.c.h.p.z.
  733. /)/3/=/M/\/z/
  734. /_0h0u0
  735. 171<1A1I1N1k1
  736. 3.393C3M3W3a3k3u3
  737. 4)434F4R4\4f4p4
  738. 565I5T5o5t5
  739. 7#7W7e7
  740. 8I9h9q9":>:G:M:Y:^:f:l:z:
  741.  Please wait.U
  742. Press
  743.  Space-
  744. Return
  745. You Choose
  746. Next    @
  747.  PgUp-
  748. onfidence.
  749. iction.
  750. ause    
  751. AutoU
  752. Sampling from a Population
  753. with Bivariate Data.#Variability of the Regression Line.!t-statistics and t-distributions.
  754. Hypothesis Testing.
  755. Confidence Intervals.
  756. Prediction Intervals.U
  757. # This program will demonstrate the 
  758.  variability of the
  759.  least squares
  760.  estimates for the 
  761. regression line
  762.  Different 
  763. samples
  764.  from a 
  765. population" yield different sample regression
  766.  lines and sample 
  767. statistics
  768.  The 
  769. t-statistic
  770.  based on the! difference between the estimated
  771.  slope and the 
  772.  slope will
  773.  be computed for each sample. $ The histogram of these t-statistics
  774.  will
  775.  be shown on the screen.# In practice, the true slope is not# known, and a hypothesized value is! used to compute the t-statistic.
  776.  Confidence
  777.  bands and 
  778. prediction# bands can be shown for each sample
  779.  instead of the t-statistics.
  780.  This program will demonstrate
  781.  that confidence intervals for 
  782.  the population regression line
  783.  can usually enclose the 
  784.  population line even though
  785.  they are based entirely on
  786.  sample data.
  787.  bands will be computed  for each of many samples drawn 
  788.  from a bivariate population.# This program will demonstrate that
  789.  prediction bands for X-Y! observations from the population
  790.  can usually enclose a large" fraction of the population values
  791.  even though they are based 
  792.  entirely on sample data.
  793.  Prediction
  794.  for each of many samples drawnU
  795.  Designated Parameters:
  796.  Intercept, 
  797.  Slope, 
  798.  Standard Deviation, sd(Y|X) = U
  799.  Parameters:
  800.  Intercept =
  801.  Slope     =
  802.  sd(Y|X)   =
  803. PopulationU
  804. % The first step is to choose the type$ of population that the samples will
  805.  be drawn from.' The population is chosen by specifying
  806.  the values of certain 
  807. parameters
  808. .' The values to be selected include the 
  809.  slope
  810. ,     intercept
  811.  and 
  812. standard
  813.  deviation.' You may choose the values by yourself,
  814.  or let them be chosen for you.% To let the values be chosen for you,
  815.  press 
  816. -for automatic demo.
  817.  Press the 
  818. Space-
  819. bar to choose
  820.  them yourself.U
  821.  Please choose values for the
  822.  parameters now.
  823.  Slope, 
  824.  Intercept, 
  825.  Standard Deviation, sd(Y|X): U
  826.  Now choose the
  827.  sample size N
  828.  Enter the sample size >U
  829. & With repeated sampling, the values of
  830.  t have a 
  831. t-distribution
  832.  with 
  833.  degrees of freedom if 
  834.  In order for the 
  835. confidence
  836. prediction
  837.  intervals
  838.  to work well, the following
  839.  conditions should be met:
  840.  Y(i) = 
  841. *X(i) + E(i)    , where :
  842.  1.     E(i) are
  843.  independent
  844.  E(i) have
  845.  mean 0
  846.  The     variance
  847.  of E(i) does not
  848.     depend on X.
  849.  E(i) have a
  850.  normal
  851.  distribution.! These are the conditions for the  normal errors regression model.& Even when condition 4 is relaxed, the& t-distribution sometimes approximates  the sampling distribution of t.
  852.  confidence intervals perform" well if the sample size is large.& Prediction intervals do not work well& unless all of the conditions are met.U
  853. #Review Regression Prediction Bands:
  854. %1. The prediction bands attempt to   %   capture a large fraction of the       X-Y points in the population.$2. The prediction bands are centered#   at the sample line, which varies
  855.    from sample to sample.     %3. 95% prediction bands bracket about$   95% of the population X-Y points.&4. The width of the prediction bands  &   varies from sample to sample mostly$   because the standard deviation of
  856.    Y given X is estimated.&5. The actual fraction of the X-Y     &   points covered depends strongly on !   the distribution of Y in the  &   population and on how closely the      population line is estimated.U
  857. %Review confidence band for regression
  858. "1. The confidence band attempts to$   enclose the population regression%   line a large fraction of the time.&2. The confidence band is centered at %   the sample line, which varies from
  859.    sample to sample. &3. 95% confidence bands should capture$   each point on the population line
  860.    about 95% of the time.'4. Other confidence procedures based on$   the F distribution can be used to!   give a simultaneous confidence
  861.    region for the whole line.#5. Confidence intervals give upper %   bounds on the error of an estimate%   that are usually correct (e.g. 95%
  862.    of the time.).U
  863. &Review t-distributions and statistics.
  864. $1. The t-statistic based on the true'   parameter value has a t-distribution
  865.    under certain conditions.#2. The t-statistic based on a value
  866.    other than the parameter is"   likely to differ from 0 by more"   than would be expected from the
  867.    t-distribution.'3. Note that, in practice, t-statistics'   are based on a hypothesized value of$   the slope since the true value is
  868.    not known.U
  869. Review Estimation and Sampling
  870. '1.  Statistical methods based on sample
  871.     data can be used to make"    inferences about a population.%2.  The least squares regression line%    is an estimate for the population
  872.     regression line.%3.  We usually do not know the actual#    error of an estimate because we%    do not know the population value.#4.  The t-statistic values computed"    using the true parameter value     have a t-distribution, under
  873.     certain conditions.$5.  The t-distribution can often be $    used to help make probabilistic 
  874.     inferences about population
  875.     parameter values.U
  876. $ Next, each of the t-statistics will% be compared to the t-distribution to
  877.  determine whether the 
  878. sample
  879.  slope
  880.  was 
  881. significantly different
  882.  from
  883.  the 
  884. population
  885.  slope.  The percent of the samples that  yielded a significant result at" the 5% significance level will be
  886.  reported.  Except for sampling  variability, the percent should
  887.  be close to 5%.! In addition, other t-statistics,
  888.  for testing the 
  889. null hypothesis
  890.  that the slope is equal to 0,
  891.  were computed for each sample  and the fraction of the samples
  892.  that had slopes significantly# different from 0 will be reported.U
  893. $ Independent random samples of size ! will be drawn from the values in
  894.  the population.
  895.  The slope, 
  896. , and intercept, 
  897. , for " the population are estimated from
  898.  each sample.  With "^" over estimated values,# the sample regression equation for
  899.  the Mean(Y|X) can be written :
  900.   =  
  901. X# For each sample, the least squares
  902.  estimate for the slope and the' estimate for the standard error of the
  903.  slope will be used to compute:
  904.  t = (
  905. )/se(
  906.  Confidence bands
  907.  should capture
  908.  the population
  909.  line.
  910.  Prediction bands
  911.  capture X-Y
  912.  points.
  913.  are wider than
  914.  Confidence Bands.U
  915.  Prediction Bands Discussion:$ Prediction bands attempt to capture# a large fraction of the population
  916.  X-Y points between them.& Prediction bands are designed so that# there is a high probability that a  new random observation from the! population will be between them." Prediction bands must account for# the variability in the sample data" as well as the variability in the
  917.  new observation.$ All of the normal errors regression$ model assumptions are important for" the accuracy of prediction bands.U
  918. $ Prediction Bands for the X-Y points& in the population are based on sample$ data and are centered at the sample
  919.  regression line.% The + or - deviation at a particular
  920.  value of X is the product of:# 1.  t(n-2,.975)  (95% Probability)$ 2.  Square root of MSE (mean square
  921.      error)
  922.  3.  Square root of:
  923.         1    (X-
  924.     1 + - + -------
  925.         n   
  926. Prediction Notes:
  927. Designed for
  928. 95% Probability. 
  929. Bands centered   
  930. on Sample Line.  
  931. Width varies with
  932. sd(Y|X) estimate  
  933. The population 
  934. points are not 
  935. usually known. U
  936. Notes:         
  937. 95% Confidence.
  938. Bands Centered 
  939. on Sample Line.
  940. The Population 
  941. line is not    
  942. usually known. 
  943. Bands are wider
  944. at the extremes.U
  945.  Confidence Bands Discussion:
  946.  Confidence bands are computed
  947.  using only sample data.! The width and shape of the bands
  948.  are determined from the data
  949.  so that they are likely to
  950.  capture the population
  951.  regression line between them.
  952.  For a specific X value, the! confidence bands are designed to! capture the population mean with" a certain probability, called the
  953.  confidence coefficient
  954. .  If the conditions of the normal" errors regression model hold true
  955.  then the confidence interval
  956.  bands will work as designed.U
  957. $ Confidence Bands for the population$ regression line are based on sample$ data and are centered at the sample
  958.  regression line.% The + or - deviation at a particular
  959.  value of X is the product of:" 1.  t(n-2,.975)  (95% Confidence)$ 2.  Square root of MSE (mean square
  960.      error)
  961.  3.  Square root of:
  962.      1    (X-
  963.      - + -------         n   
  964.  Samples will be
  965.  drawn from the
  966.  X-Y data points
  967.  in the population
  968.  to the right.
  969.  The population
  970.  regression line
  971.  is shown and the
  972.  values of the
  973.  slope and 
  974.  intercept
  975.  parameters are
  976.  shown above.
  977.  The sampling
  978.  experiment is
  979.  next.
  980.  You can change 
  981.  the switch
  982. es for
  983.  Confidence,
  984.  Prediction, or
  985.  Pause either
  986.  now or during 
  987.  the experiment 
  988.  by pressing the     C, D, or
  989.  P key
  990. Parameter:
  991.  Int.=
  992.  Slope=
  993.                 
  994. Estimate :
  995. s.e.     :      
  996.        
  997. t-Stat   :
  998.       
  999.       n=
  1000.   R-squared=
  1001.    sd(Y|X)=
  1002. Sample    
  1003. M    1 t-value     t-values
  1004. % are between.U
  1005. A histogram of the 
  1006. t-statistics based on
  1007. the estimated and 
  1008. true slope are shown 
  1009. to the left.  They   
  1010. represent just a     
  1011. fraction of all the  
  1012. t-statistics that    
  1013. could result from    
  1014. samples of size 
  1015. from the population. 
  1016. The t-distribution   
  1017. with 
  1018.  degrees of
  1019. freedom is also      
  1020. shown.# t-statistics for the following two% hypotheses were computed for each of
  1021.  the 
  1022.  samples.  The results are! reported for 5% 2-sided t-tests.
  1023. Hypothesis H:Slope =
  1024. | H:Slope = 0
  1025. Rejected    
  1026.  Available Control Keys:
  1027.      A-
  1028. utomatic Demonstration.
  1029.      B-
  1030. Return to the 
  1031. B    eginning.
  1032.      C-
  1033. onfidence interval switch.
  1034.      D-
  1035. iction interval switch.
  1036.      Q-
  1037. uit Sampling.
  1038. uit Program.
  1039.      H-
  1040. elp Screen.
  1041.      N-
  1042. Select 
  1043. ew Parameters
  1044.        and Sample Size.
  1045.      P-
  1046. ause/Continuous Sampling.
  1047.   Pgup-
  1048. Return to Previous Topic.
  1049.  Space-
  1050. Continue to Next 
  1051. Sample.
  1052. Topic.# Different keys may be available at
  1053.  other points in the program.
  1054.  The control keys are 
  1055.  available when the program is# waiting for you to enter a number.U
  1056.  Z d n 
  1057. $#$($2$H$l'z'
  1058. (!(+(5(E(T(Y(c(r(w(
  1059. )&)0):)D)N)X)b)l)v)
  1060. -%-/-9-C-M-W-a-k-u-
  1061. 0)030=0G0Q0[0e0o0y0
  1062. 3%3/393C3M3
  1063. 6)636=6G6Q6[6e6o6y6
  1064. 9%9/999C9M9W9a9k9u9
  1065. <"<3<8<=<G<Q<[<e<t<y<
  1066. =!=+=7=A=M=W=a=k=u=
  1067. >!>+>
  1068. ?#?,?6?@?J?T?^?g?m?w?
  1069. B$B.B8BBBLBVB`BjBtB~B
  1070. B$D.D8DBDLDVD`DjDtD~D
  1071. E!E&E0E:EDEOEYE^EhE%F1F<FYFiFnFsF
  1072. G$G*G4G>GHGbGzG
  1073. HCHiH
  1074. IDIUI]InI
  1075. IWJfJqJ
  1076. K(K1K7KAKKKUK_KhKnKxK
  1077. N%N/N9NCNMNWNaNkNuN
  1078. P#P-P7PAPKPUP_PiPsP}P
  1079. Q%Q0Q:Q?QIQ
  1080. S)S3S=SGSQS[SeSoSyS
  1081. T!T+T7T@TFTPTZTdTnT
  1082. T    V-VGVQVaV
  1083. WrXwX
  1084. Y!Y+YPYUYZYiYyY
  1085. ZAZXZhZmZrZ
  1086. [%[*[:[_[d[i[y[
  1087. `(`0`5`C`V`[`g`
  1088. c*c4c9c>cNccctc
  1089. f1f=fNfVfhfxf
  1090. f$g0g<gHgPgbgng
  1091. h"h0h5hKhYhghlh
  1092. i%i9i>iTibigiyi
  1093. j(j2j<jFjPjZjjj{j
  1094. l-l>lClMlRl\lflvl
  1095. m!m+m@mEmOmdmimsm
  1096. p*p5pHpRp\pfp{p
  1097. q'q1q;qEqOqYqcqmq
  1098. r&r0r:rDrYrcrmrwr
  1099. sasoszs
  1100. v&vJvkv
  1101. x"y@y\ymyuy~y
  1102.